Telegram Group Search
noindex, nofollow
Про Google Discover в рунете рассказывают редко, тем ценнее запись этого вебинара: Артем Паклонский (wss.media) в гостях у Михаила Шакина. Весьма интересный доклад.
Тезисы из доклада Артема Паклонского (wss.media). Это самый насыщенный, подробный и интересный доклад про Google Discover на русском за все время (презентация в Фигме).
— Топик-ориентированный подход - это то, что нужно изучать в ближайший год-два
— Лента Дискавера формируется на основе ваших интересов
— Topic = Entity = Сущность = Интерес
— Google Topic Interest использует данные Chrome, Google App, Maps, Youtube, историю браузера, запросы, историю местоположений и считает эффективность на основе истории взаимодействия с сервисами Гугла
— Google News, Discover и Trends тесно связаны друг с другом
— Google использует идентификатор Knowledge Graph, чтобы избежать путаницы с обозреваемой сущностью (Tesla - компания, автомобиль, аэропорт, персона)
— Google FLoC: интересы (5 на пользователя) вместо cookies
— Google Natural Language AI (тот же, что в Google Cloud) используется для распознавания каким Topics соответствует статья
— Картинки в статьях/новостях крайне важны, следите за соотношением сторон и используйте разные (16:9, дополнительно 1:1, 4:3), разрешение > 1200 px
— Добавьте max-image-preview:large
— Не используйте текст на изображениях
— Используйте реальные фото
— Следите за качеством AI-генераций и артефактами
— Используйте RSS (1 общий фид и отдельные под разные темы)
— Используйте категоризацию Гугла 1-2 уровня
— Entity-Linking: создайте между вашим сайтом и рекомендательным движком семантический слой, устраняющий неоднозначность в определении основной темы, и формирующий связь между несколькими темами внутри страницы или на разных сайтах
— Для этого используем: JSON-LD (sameAs со ссылками на Wikipedia, Wikidata и сам Гугл Поиск с идентификатором kgmid - сущность в графе знаний), перелинковку, структуру сайта
— Перелинковка: текст ссылки должен содержать основные сущности, которые содержит данная статья и слова, задающие тематику
— На Дискавер оказывают влияние ссылки из свежих материалов и материалов, которые регулярно обновляются
— Используйте разметку на страницах тегов
— На рынке есть 2 сервиса для анализа Discover'а - DiscoverSnoop и GDdash, они дают понимание, в каких категориях сколько публикуется материалов и есть ли там спрос, объем трафика
— Гугл Дискавер учитывает трафик из других источников, например, всплески трафика из соцсетей продвигают evergreen-контент
— Как повысить Relevance Score для основных топиков статьи:
- включите топики в Title, H1-H3, первые 500 символов статьи
- включите семантически связанные слова, самые важные - в первые 500 символов, самые-самые важные - в рамках одного пассажа
— SPO: Субъект-Предикат-Объект (Subject-Predicat-Object) - логическая связка, на основе которой Гугл понимает связи между сущностями (кто/что? - что делает? - с кем/чем?)
— Как все это организовать? Менять процессы и редакционную политику, проводить регулярный выборочный анализ и разбор топиков.
ОК, Гугл, что случилось с твоим антиспамом? :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересный ответ Джона Мюллера из июньского выпуска SEO Office Hours:
— Почему Гугл считает статьи на LinkedIn Pulse первоисточником (оригиналом), хотя сначала они были опубликованы на нашем сайте?
— Во-первых, результаты поиска не указывают на то, что системы Гугла считают первоисточником. В общем, когда вы распространяете или переиздаете свой контент на разных платформах, вы обмениваете дополнительную видимость на этой платформе на возможность того, что другая платформа появится в результатах выше, чем ваш сайт. В некоторых случаях это может быть хорошо, например, если вы хотите повысить осведомленность о своем сайте или бизнесе в других местах. В других случаях вы можете предпочесть, чтобы в поиске отображался только ваш сайт. В конечном счете, это ваше бизнес-решение.
В десктопной выдаче Яндекса блок "Цены в магазинах" переехал из карточки товара в основную выдачу.
Дэниел Вайсберг (Search Advocate в Гугле) на испанской конференции SEonthebeach анонсировал новинку в интерфейсе Google Trends (уже запущено, проверил): можно сравнивать данные за разные годы на одном графике.
Напомню, что это относительное значение популярности запроса, а не абсолютное.
Forwarded from TechSparks
Промпт-инженеры как отдельная профессия вряд ли появятся, а вот умение работать с промптами уже стало полезным и массово востребованным навыком, и как минимум какое-то время таковым останется.
Как любой навык, его надо практиковать и оттачивать регулярными тренировками, но все ж и теорию немного знать полезно хотя бы ради того, чтоб знать, куда при нужде подглядывать.
Посему вот вам довольно фундаментальный труд, собравший a comprehensive vocabulary of 33 vocabulary terms, a taxonomy of 58 text-only prompting techniques, and 40 techniques for other modalities. We further present a meta-analysis of the entire literature on natural language prefix-prompting.
Семьдесят шесть страниц текста, богатая библиография; разок полезно самому прочитать, а дальше пусть с ним любимая модель работает, когда вопрос возникает.
https://arxiv.org/abs/2406.06608
Небольшое интервью с Сергеем Людкевичем - одним из пионеров SEO в рунете, автором канала Sealytics

— Есть ли, на ваш взгляд, большая разница в подходах и компетенциях оптимизатора при работе с информационными и коммерческими ресурсами?
— Разница есть, конечно. И, к сожалению, очень часто приходится видеть ситуации, когда оптимизаторы этой разницы не понимают и действуют по одному шаблону.

— Повлияли ли на вашу работу утечки Яндекса и Гугла?
— Те утечки, что были публичными - нет.

— Много ли сторонних инструментов для работы используете? Помимо панелей вебмастеров и систем веб-аналитики.
— Для анализа конкурентов - SimilarWeb и Ahrefs.

— Ваши прогнозы относительно AI Overviews и Яндекс Нейро: они займут свою небольшую нишу или значительным образом изменят серп и SEO-отрасль вообще?
— Не люблю прогнозы ). Но, думаю, что ответы от ИИ - это какое-то чисто маркетинговое соревнование. И не факт, что оно приживется. Как не прижился, к примеру, голосовой поиск, хотя в свое время по нему тоже соревновались, хоть и не так жестко.

— Кто, на ваш взгляд, из западных экспертов наиболее интересен своими исследованиями и находками?
— Наиболее интересными из буржуйских экспертов мне представляются Барри Шварц, Лили Рэй, Гленн Гейб и Гаган Готра.

— Какая часть работы оптимизатора вам больше всего нравится?
— Естественно, аналитика выдачи. А также поиск неочевидных ошибок конкретных сайтов, влияющих на корректную индексацию и ранжирование.

— Напоследок, посоветуйте, пожалуйста, нашим подписчикам интересную и впечатлившую вас книгу, любого жанра?
— Из последних прочитанных книг больше всего впечатлил "Его батальон" Василя Быкова.
Хорошая графика на случай важных переговоров про продуктовый подход в SEO. Источник.
Будет интересно посмотреть, как отразится переезд на видимости в поиске 🧐
а https://journal.tinkoff.ru/ пока оставили :)
Отголоски утечки Гугла. Крис Лонг отмечает:
1. Гугл учитывает содержимое вокруг анкорного текста: атрибуты "fullLeftContext" и "fullRightContext" указывают на то, что поисковик может оценивать текст вокруг анкорной фразы.
Это означает, что даже если используется анкорный текст "нажмите здесь", Гугл может использовать весь абзац, в котором он находится, чтобы понять, о чем на самом деле идет речь в анкорном тексте.

2. Гугл может хранить историю версий URL-адресов: Эндрю Ансли обнаружил, что Гугл ссылается на атрибут "urlHistory".
В нем говорится, что "если документ имеет более 20 изменений, мы сохраняем здесь только последние 20 изменений, чтобы не добавлять слишком много данных в его docjoin".
Это указывает на то, что поисковик может хранить предыдущие версии данной страницы, подобно Wayback Machine.
Новости антимонопольного дела против Гугла в США. Корпорация выписала чек на $2,3 млн для покрытия потенциального ущерба и таким образом избежала суда присяжных - дело будет рассматриваться судьей.
Apple обновила документацию про своих веб-роботов. Чтобы запретить использовать контент своего сайта в целях обучения ИИ-моделей в продуктах Apple (включая Apple Intelligence, сервисы и инструменты разработчиков), можно воспользоваться директивой в robots.txt:
User-agent: Applebot-Extended
Disallow: /

Applebot-Extended не сканирует страницы, в отличие от Applebot. Этот токен используется только для определения того, как использовать данные, полученные Applebot'ом.
OPTIMIZATION-2024🔥

На правах информационного партнёра приглашаю вас на знаменитую Optimization!
Расскажу немного о программе👇🏻

В этом году конференция пройдет в двух форматах:

10 октября — бесплатный онлайн-день! Программа которого будет сформирована из тем оффлайн-дней.

17-18 октября — продолжение конференции в Сколково. Участников ждет обновленная программа с докладами, адаптированными под текущую информационную повестку.

Вас ждут более 20 секций и 70 докладов от ведущих экспертов отрасли:

• Михаил Сливинский (амбассадор интернет-площадок в поиске)
• Игорь Ашманов, Денис Шубенок «Ашманов и партнёры» и другие лидеры отрасли таких компаний, как:
«DataInsight», «Рейтинг Рунета», «Мегамаркет», «Циан», «Calltouch» и др.

Познакомиться с программой и узнать больше о мероприятии👨🏻‍💻
Please open Telegram to view this post
VIEW IN TELEGRAM
Эрик Ланчерес приводит пример полного восстановления трафика сайта, пострадавшего от core апдейта (не уточняется, какого именно) и подчеркивает, что основная работа была проведена над значительным улучшением UX.

Гуглу понадобился 1 месяц после внедрения изменений на сайте, чтобы накопить и учесть данные о поведении пользователей.
Из статьи Wired с заголовком "Perplexity Is a Bullshit Machine" мы узнаем, что боты Perplexity могут игнорировать запрет сканирования в robots.txt.
2024/06/20 00:52:04
Back to Top
HTML Embed Code: